首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    SOP是什么?SOP的作用是什么?如何编写SOP

    SOP的核心,就是把特定流程的关键问题细化及量化。 SOP的作用: 1、把企业长期累积的经验技术记录归纳,汇总成简单易懂的标准化文件,即使出现操作人员变动也不会使已有的技术流失。 很多企业操作者关心的是,如何编写SOP呢? 首先,我们要知道SOP编写要条理清晰、结构规范、简洁形象、具有很强的逻辑性、内容精准、可操作性强,让操作人员容易弄懂,方便上手。 最后,SOP编写完成后,要先进行试运行,检测其在实际操作中的合理性,是否具有可操作性。试运行成功后,要让各部门严格按照SOP进行操作并及时反馈信息。相关人员定期根据反馈的信息进行核查。 当车间设备、客户要求发生变更时,生产方法也需随之改变,这时就需对SOP进行及时的更新维护。 编写SOP需要大量的数据统计和分析,仅仅依靠人力操作起来相当困难,所以需要借助专业的软件来完成。

    4.3K10编辑于 2022-08-24
  • 什么是SOP

    AR SOP(增强现实标准操作流程)是指利用AR技术,将传统的SOP(标准作业流程)通过三维可视化、动态指引等方式呈现在工作现场,帮助员工更直观、准确、高效地完成各类操作任务。   一、AR SOP 的核心定义  在元幂境看来,AR SOP是把标准流程、操作规范等内容,通过AR设备(如分体式AR眼镜、平板、手机)以图像、动画、语音、文字等形式叠加到现实场景中,实时引导用户完成任务的系统工具 知识可视化:复杂步骤以动画或模型演示,降低理解门槛。  可追溯性:全过程可记录并分析员工执行情况。   三、AR SOP 的应用场景AR SOP,AR SOP系统,AR SOP工具,AR SOP平台  四、AR SOP 的价值优势  降低培训成本:新员工可通过AR自助学习流程,无需全程导师陪同。   在未来,AR SOP 将成为高标准、高复杂度作业环境的必备工具。

    93210编辑于 2025-09-18
  • 来自专栏学习

    SOP管理模块

    以下从 业务逻辑梳理、字段适配性分析、接口设计落地 三个维度,结合你的表结构和接口需求,完整拆解 SOP 管理模块的实现方案: 一、业务逻辑全景图(SOP 生命周期) SOP 管理的核心是 “版本化管理 主记录创建 初始化 sops 表,生成基础元数据 POST 创建新SOP版本 草稿版本创建 初始化 sop_versions 表(状态 Draft) PAT 更新SOP草稿 草稿内容迭代 更新 sop_versions.definition 回滚SOP版本 版本回退 重置 sops.latest_published_version_id 到历史版本 GET 获取SOP版本历史 版本追溯 按 sop_id 筛选 sop_versions 记录 GET 获取SOP版本历史 功能:按 SOP 主记录查询所有版本(含草稿、已发布、归档) 请求参数: plaintext sop_id=1001 // 要查询的 SOP 主记录 ID SQL 执行: 索引优化: 高频查询字段(如 sop_versions.sop_id、sop_versions.status)需创建复合索引: sql CREATE INDEX idx_sop_versions_sop_status

    44810编辑于 2025-08-09
  • 来自专栏创作是最好的自我投资

    通用模型VS垂直模型

    在人工智能这个充满无限可能的领域内,通用模型和垂直模型各有千秋。就我个人而言,在二者之间的选择上,并不存在偏向某一方的倾向。我觉得应当依据实际应用场景的具体需求,来挑选最为契合的模型。 通用模型通用模型,乃是旨在应对多种任务与数据类型的庞然物级人工智能模型。 在知识覆盖的广度方面,通用模型无疑具有明显的优势。当我们对于当下所需模型所涉及的精确专业领域的界限感到模糊不清时,选择通用模型无疑是一种明智之举。垂直模型接下来谈谈垂直模型。 然而,由于垂直模型的训练内容聚焦于当前行业,其涉猎的范围更集中,数据针对性更强,所以在提供专业咨询时往往更加精准、细致,这也正是垂直模型的独特价值所在。 因此,对于通用模型或者垂直模型,更倾向于哪一方不取决于个人想法,而是取决于用户需要。

    75001编辑于 2024-12-30
  • 来自专栏小洁叫你mysql

    【AI模型】训练Al模型

    模型超越AI 目前所指的模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨模型的概念、训练技术和应用领域,以及与模型相关的挑战和未来发展方向。 模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而模型则可能拥有数亿或数十亿个参数。 训练模型的挑战 训练模型需要应对一系列挑战,包括: 以下是与模型相关的一些代码示例: 计算资源需求: import tensorflow as tf # 指定使用GPU进行训练 with tf.device 更智能的模型压缩技术:模型压缩和加速技术将继续发展,以减小模型的计算和存储开销。 更好的计算平台支持:为了支持训练和部署模型,计算平台将继续改进,提供更强大的计算资源和工具。

    1.5K30编辑于 2023-10-10
  • 来自专栏学习

    开源模型与闭源模型

    在人工智能(AI)和机器学习(ML)的快速发展过程中,模型(Large Models)已经成为推动技术进步的重要力量。当前,业界存在两种主要的模型开发模式:开源模型和闭源模型。 一、开源模型 开源模型是指开发者将模型的代码和训练数据公开,使得任何人都可以访问、修改和使用这些资源。 二、闭源模型 闭源模型是指模型的代码和数据不对外公开,通常由商业公司开发和维护。代表性的闭源模型包括OpenAI的GPT-3和Google的BERT。 三、开源模型与闭源模型的对比 1.透明性与可控性: 开源模型的透明性更高,任何人都可以查看和验证其代码和数据,确保模型的行为符合预期。这对于学术研究和技术验证非常重要。 闭源模型通过控制代码和数据的访问,能够更好地保护用户隐私和数据安全,降低被恶意利用的风险。 五、总结 开源模型和闭源模型各有优缺点,适合不同的应用场景和需求。

    1.6K10编辑于 2024-10-09
  • 来自专栏用户11973009的专栏

    2026开年SOP工具全指南:一键生成SOP模板的高效方法

    在日常工作中,标准作业程序(SOP)是将重复性任务系统化、规范化的重要工具。但SOP的创建和管理常因繁琐而令人望而却步。 02 核心价值:为什么SOP模板一键生成如此重要SOP工具的价值核心在于将标准化的理念与自动化技术相结合。与传统手动编写SOP相比,智能化工具能够显著提升工作效率。 这类工具通常具备三核心优势:一是提供跨行业的标准模板库,涵盖市场营销、客户服务、项目管理、人力资源等多个领域;二是支持可视化流程设计,使复杂流程一目了然;三是具备协作与版本控制功能,确保团队成员始终使用最新 Notion 虽然不是专门的SOP工具,但其灵活的数据库和模板功能使其成为许多团队管理SOP的选择。通过使用社区分享的SOP模板或创建自定义模板库,团队可以实现高效的SOP管理。 List[Dict]: """从文本中提取流程步骤(模拟AI提取)""" # 这里简化为按句号分割,实际应用中会使用NLP模型 sentences = [s.strip

    68710编辑于 2026-01-12
  • 来自专栏数据派THU

    原创 | 模型扫盲系列——初识模型

    为了提高模型的性能,研究者们不断尝试增加模型的参数数量,从而诞生了模型这一概念。本文将从模型的原理、训练过程、prompt和相关应用介绍等方面进行分析,帮助读者初步了解模型。 为了提高模型的性能,研究者们不断尝试增加模型的参数数量,从而诞生了模型这一概念。本文讨论的模型将以平时指向比较多的语言模型为例来进行相关介绍。 训练三步骤 初步认识了模型长什么样了,接下来一起来看看如何训练出一个模型。 除这些外还包括算法优化、隐私和数据安全以及模型可解释性等方面的研究和应用,每天还有很多大模型的应用正在不断涌现,模型在未来仍然有很大的发展潜力,国内的优秀模型代表例如百度文心模型也正在搭建全系统产业化的模型全景 模型挑战 模型也存在一些现实挑战: 1.数据安全隐患:一方面模型训练需要大量的数据支持,但很多数据涉及到机密以及个人隐私问题,如客户信息、交易数据等。

    21.2K29编辑于 2023-11-22
  • 来自专栏IT从业者张某某

    模型模型的幻觉问题

    参考 模型中的涌现 OpenAI 科学家:幻觉是模型与生俱来的特性,而非缺陷 模型「幻觉」,看这一篇就够了|哈工大华为出品 模型 什么是模型 语言模型(LLM)是基于海量文本数据训练的深度学习模型 模型模型发展如下图 涌现 参考:模型中的涌现 什么是涌现?先从蚂蚁开始说起。蚂蚁是自然界中一种个体非常简单,但是群体能力非常强大的生物。 如何解决模型的「幻觉」问题? 方向一:什么是模型「幻觉」 模型出现幻觉,简而言之就是“胡说八道”。 用文中的话来讲,是指模型生成的内容与现实世界事实或用户输入不一致的现象。 OpenAI 科学家 Andrej Karpathy关于模型幻觉 在 Karpathy 看来: 从某种意义上说,语言模型的全部工作恰恰就是制造幻觉,模型就是「造梦机」。 只有模型助手存在幻觉问题。 方向二:造成大模型「幻觉」的原因 那么致使模型产生幻觉的原因都有哪些?

    1.8K11编辑于 2024-01-04
  • 来自专栏人工智能极简应用

    【AI模型】Transformers模型库(八):模型微调之LoraConfig

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 LoRA是一种用于微调大型语言模型的轻量级方法,它通过添加低秩矩阵到预训练模型的权重上来实现适应性调整,从而在不显著增加模型大小的情况下提升特定任务的性能。 task_type: 指定任务类型,如'CAUSAL_LM',以确保LoRA适应正确应用到模型的相应部分。 get_peft_model(model, config) print_trainable_parameters(model) 三、总结 本文简要介绍LoraConfig的配置参数情况,具体的机遇peft对模型进行微调后面单独开一页详细讲解

    93810编辑于 2024-08-13
  • 来自专栏全栈程序员必看

    SOP解釋與說明

    从对SOP的上述基本界定来看,SOP具有以下一些内在的特征:   SOP是一种程序.SOP是对一个过程的描述,不是一个结果的描述.同时,SOP又不是制度,也不是表单,是流程下面某个程序中关控制点如何来规范的程序 SOP 标准化作业程序SOP不是单个的,是一个体系.虽然我们可以单独地定义每一个SOP,但真正从企业管理来看,SOP不可能只是单个的,必然是一个整体和体 系,也是企业不可或缺的.余世维在他的讲座中也特别提到 2)为了提高企业的运行效果   由于SOP是对每个作业程序的控制点操作的优化,这样每位员工都可以按照SOP的相关规定来做 事,就不会出现的失误。 软件的差异化又往往不是在的战略方面,而是在具体的细节。细 节的差异化不体现在理解上,而体现在能否将这些细节进行量化,也即细节决定成败。 通过提供一个多维平台(SOP BBS,SOP World,SOP Blog,SOP QQ),在此之上,广泛讨论所有与心理学有关的话题。

    1.2K10编辑于 2022-09-01
  • 来自专栏机器学习入门

    【AI模型】LLM主流开源模型介绍

    学习目标 了解LLM主流开源模型. 掌握ChatGLM、LLaMA、Bloom等基础模型的原理 LLM主流模型类别 随着ChatGPT迅速火爆,引发了模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款模型发布及应用 目前,市面上已经开源了各种类型的语言模型,本章节我们主要介绍其中的三类: ChatGLM-6B:衍生的模型(wenda、ChatSQL等) LLaMA:衍生的模型(Alpaca、Vicuna BLOOM模型 BLOOM系列模型是由 Hugging Face公司的BigScience 团队训练的语言模型。 小结 本小节主要介绍了LLM主流的开源模型,对不同模型架构、训练目标、优缺点进行了分析和总结。

    1.2K10编辑于 2024-09-24
  • 来自专栏IT从业者张某某

    语言模型-1.2-模型技术基础

    简介 1.2 模型技术基础 语言模型 预训练阶段会得到base model,本质上就是一个互联网文本模拟器,这个阶段需要上万台服务器训练几个月的时间,这个生成的模型可以认为是互联网的有损压缩。 构建一个语言模型 语言模型预训练(Pre-training) 使用与下游任务无关的大规模数据进行模型参数的初始训练 ➢ 基于Transformer解码器架构,进行下一个词预测 ➢ 数据数量、数据质量都非常关键 人类对齐(Human Alignment) ➢ 将语言模型与人类的期望、需求以及价值观对齐 ➢ 基于人类反馈的强化学习对齐方法(RLHF) 模型的研发已经成为一项系统工程 扩展定律( Scaling Law) ➢ 通过扩展参数规模、数据规模和计算算力,语言模型的能力会出现显著提升 ➢ 扩展定律在本次大模型浪潮中起到了重要作用 语言模型采用了与小型预训练语言模型相似的神经网络结构 ,从而获得更可靠的答案 涌现能力与扩展定律的关系 ➢ 涌现能力和扩展定律是两种描述规模效应的度量方法 模型核心技术 ➢ 规模扩展:扩展定律奠定了早期模型的技术路线,产生了巨大的性能提升

    49310编辑于 2025-03-15
  • 来自专栏人工智能极简应用

    【AI模型】Transformers模型库(十二):Evaluate模型评估

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍Evaluate模型评估。 二、Evaluate模型评估 2.1 概述 Transformers库中的evaluate API主要用于评估模型在特定数据集上的性能。 下面是一个使用Python和Transformers库进行模型评估的基本步骤,假设你已经有了一个预训练模型和相应的数据集处理器。 评估结果将包含各种指标,如准确率,具体指标还要取决于你的模型

    1K10编辑于 2024-08-13
  • 来自专栏muller的测试分享

    MetaLlama模型

    llama 模型介绍我们介绍 LLaMA,这是一个基础语言模型的集合,参数范围从 7B 到 65B。 我们在数万亿个Token上训练我们的模型,并表明可以专门使用公开可用的数据集来训练最先进的模型,而无需诉诸专有的和无法访问的数据集。 特别是,LLaMA-13B 在大多数基准测试中都优于 GPT-3 (175B),llama2 模型介绍我们开发并发布了 Llama 2,这是一组经过预训练和微调的大型语言模型 (LLM),其参数规模从 我们经过微调的语言模型(称为 Llama 2-Chat)针对对话用例进行了优化。 //huggingface.co/meta-llama/Llama-2-7bhttps://huggingface.co/docs/transformers/model_doc/llamallama 语言模型提供的主要模型列表

    43710编辑于 2024-09-02
  • 来自专栏muller的测试分享

    mixtral模型

    简介Mixtral 是一种具有开放权重的高质量稀疏专家混合模型 (SMoE)。根据 Apache 2.0 许可。 它是最强大的开放权重模型,具有宽松的许可证,也是成本/性能权衡方面的最佳模型。特别是,它在大多数标准基准测试中匹配或优于 GPT3.5。Mixtral 的特点可以优雅地处理 32k 令牌的上下文。 请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest') debug(r)总结Mixtral 是一种具有开放权重的高质量稀疏专家混合模型

    21910编辑于 2024-10-16
  • 来自专栏AI

    模型微调

    # 模型微调的主流方式、核心区别与底层原理 微调(Fine-tuning)的核心底层共性:基于预训练模型的知识迁移,冻结预训练模型的大部分通用特征参数,仅针对具体任务优化少量参数/引入轻量模块/设计提示特征 核心特点 优点:任务适配性最强,能充分挖掘任务数据的特征,效果理论上最优; 缺点:算力/数据需求极高(需千万级以上任务数据,模型全量微调需上百张GPU)、易过拟合、模型存储成本高(一个任务一个模型)、 核心特点:效果接近全量微调,是工业级模型的主流选择,参数量仍控制在5%以内。 特点:少样本适配(百/千级样本),效果优于硬提示,无推理延迟,适合超大规模模型。 ; 避免全量/部分微调:针对Transformer模型的两段式端到端架构,全量/部分微调的算力成本极高,且多任务适配时模型存储成本不可接受。

    47210编辑于 2026-02-09
  • 模型 RAG】

    模型 RAG(Retrieval-Augmented Generation)是指结合检索和生成技术的模型,在生成任务中引入了检索的过程。 在学术界,研究者通常会在模型 RAG 的基础上提出新的模型结构、训练方法和评估指标等方面的创新。他们会通过论文发表、学术研讨会等方式将研究成果传播给其他研究人员,推动该领域的发展。 而在工业界,企业通常会将模型 RAG 技术应用到实际的产品和应用中,解决一些实际问题。 学术界与工业界可以进行合作研究项目,共同开展模型 RAG 技术的研究与探索。学术界可以提供理论指导和算法创新,工业界可以提供实际数据和场景需求。 总之,模型 RAG 场景下的产学结合是学术界和工业界合作研究和应用模型 RAG 技术的一种方式,通过合作与交流,推动该领域的发展和应用。

    28410编辑于 2025-08-29
  • 来自专栏前行的CVer

    模型Agent

    PanelGPT💡: 💁🏼🎤 (👾💬) (🤖💭) (🤯🗯) 受到“三个臭皮匠,赛过诸葛亮”启发,设计one-shot的例子,让多个LLM同时给出答案,然后再用一个LLM打分,做决定。他们使用的prompt:3 experts are discussing the question with a panel discussion, trying to solve it step by step, and make sure the result is correct and avoid penalty:,这个prompt的效果要优于Let's think step by step:。

    32410编辑于 2024-05-15
  • 来自专栏有关SQL

    读书,找资料,我的 SOP

    每天做的那点事,如果不以文字记录下来,当天就会睡不好觉,心里慌 基于这些日志,我琢磨出来一个事:这些都是生成 SOP 的语料。 SOP: Standard Operating Procedure, 即标准作业流程 每个工作都会有最佳的 SOP,放眼到看书找资料,也有。今天我就把这两年,执行效果不错的 SOP 分享出来。 比如我在理解 LDA 主题模型时,检索到了李航《统计学》,把每个细节都看了个遍,很舒服。 资料的尽头,是经典书。 就怕你让它白白躺在那里,无动于衷 以上的搜索 SOP 陪伴了我大约 2/3 年,入门新领域时,寻找资料我总是遵循这条路径,即,高密度信息载体 > 实战指导手册 > 低密度经典教科书 当然,随着时间推移, 每一步都有可能会变,还会有替代品,但不要紧,只要能更好的解决问题,寻找最佳 SOP 便是永恒,唯变化不变 如果对你有用,请妥善收藏

    50020编辑于 2022-12-18
领券